Texto original de Ryan Hagemann y Jean-Marc Leclerc, con adaptaciones del equipo de Relaciones Gubernamentales de IBM América Latina
La confianza es el vínculo principal que une a las empresas que desarrollan e implementan la Inteligencia Artificial (IA) con sus consumidores. Mientras que los primeros deben asegurarse de que sus sistemas de inteligencia artificial lleguen a ciertas conclusiones de manera ética, transparente y cumplan con las regulaciones relevantes, los consumidores son cada vez más conscientes de cómo se utiliza esta tecnología y quieren saber cuándo se usa y cómo impacta sus vidas.
IBM ha argumentado desde hace tiempo que los sistemas de Inteligencia Artificial deben ser transparentes y explicables, lo que refuerza nuestro respaldo a los principios que están construyendo las organizaciones internacionales como la OCDE (Organización para la Cooperación y el Desarrollo Económicos), el G-20 y El Foro Económico Mundial. La existencia de principios es esencial y ayuda a delinear los compromisos que los desarrolladores de IA deben tener con los ciudadanos, los consumidores y los gobiernos.
Sin embargo, ha llegado el momento de pasar de los principios a las políticas. La transparencia algorítmica y la capacidad de los sistemas para explicar la lógica detrás de sus recomendaciones, debería ser la base para construir cualquier sistema de IA confiable, y por lo tanto, es lo que esperamos de cualquier compañía que desarrolle, distribuya o comercialice sistemas de este tipo.
En un ensayo reciente, tomamos una posición sobre las tecnologías de reconocimiento facial y reforzamos nuestro compromiso con algoritmos transparentes y explicables. Algo similar debe ser requerido para la IA en general: los resultados de búsqueda, ya sean deterministas o probabilísticos, deben ir acompañados de la posibilidad de que el usuario verifique el origen y las fuentes de información presentadas.
Al considerar que estamos hablando de tecnologías cada vez más extendidas y determinantes de comportamientos y decisiones que pueden afectar la vida en la sociedad, es esencial que los gobiernos prioricen el debate de manera técnica y oportuna. En este sentido, recomendamos que los debates públicos y legislativos para la definición de las mejores políticas y estructuras de gobernanza de la IA se guíen por tres pilares:
- Imparcialidad y seguridad validadas por pruebas de sesgos y de uso. Esto debe ser realizado antes de que la IA sea implementada, y con especial foco en sistemas que entregan determinaciones automatizadas y aplicaciones de alto riesgo;
- Responsabilidad proporcional al perfil de riesgo de la aplicación y a la capacidad de la organización para proporcionar, desarrollar u operar un sistema de IA, así como para controlar y mitigar resultados no deseados o perjudiciales para los consumidores; y
- Transparencia al señalar en dónde se utilizará la tecnología, cómo ha sido entrenado el sistema, cómo se usa, y por qué entrega ciertos resultados o sugerencias
Con esto, será posible identificar y frenar las prácticas eventuales de organizaciones que no están comprometidas a proteger los derechos y la privacidad de sus usuarios, sean individuos, empresas o gobiernos.
Creemos que los enfoques regulatorios basados en riesgo son los medio ideales para proteger a los consumidores, crear confianza pública en la Inteligencia Artificial y, sobre todo, proporcionar a los innovadores la flexibilidad necesaria para la creación de sistemas cada vez más precisos e impulsores del desarrollo social y económico.
Además, es importante que las empresas se unan para la construcción de buenas prácticas en el desarrollo y la gobernanza de estos sistemas, y que estas prácticas puedan variar de acuerdo con el daño potencial que una solución pueda presentar. En base a este ejercicio de armonización, recomendamos cuatro prácticas que, al incorporadas y ser aceptadas por el mercado, diferenciarán a las compañías que realmente están comprometidas con la generar una práctica de Inteligencia Artificial confiable:
-
Designar un líder responsable de Ética en la IA. Esta persona sería responsable de la guía interna ysus mecanismos de cumplimiento. Podría por ejemplo conformar un Consejo de Ética en IA, que vigile las estrategias de evaluación de riesgo y la mitigación de potenciales daños. Un mercado que prioriza la adopción de profesionales responsables de Ética en IA, tiene el potencial de mejorar la aceptación y confianza pública en estos sistemas, al mismo tiempo que impulsar el compromiso de las organizaciones hacia el desarrollo, despliegue y administración responsable de esta importante tecnología.
-
Diferentes reglas para diferentes riesgos. Todas las entidades que operan o son propietarias de un sistema de IA deben conducir dos tipos de evaluación, ambas extremadamente juiciosas: una evaluación inicial del daño potencial de la tecnología, que tiene en cuenta el uso específico de la aplicación, los impactos para el usuario final y nivel de automatización empleado; y otro, aún más profundo, centrado en aplicaciones de alto riesgo, que deben documentarse, auditarse y almacenarse durante un período específico.
-
Sistemas explicables de IA. Cualquier Sistema de IA en el mercado que haga determinaciones o recomendaciones con impactos potenciales para distintos individuos, debe ser capaz de explicar y contextualizar cómo y por qué llegó a una conclusión. Para lograrlo, es necesario que las organizaciones mantengan huellas auditables sobre los datos de insumo y entrenamiento del mismo sistema.
-
Realización de pruebas de sesgos. Las organizaciones involucradas en el desarrollo del ciclo de vida de la IA comparten cierto nivel de responsabilidad en asegurar que los sistemas que diseñan sean imparciales y seguros. Y como con cualquier software para uso comercial, es esencial realizar pruebas continuas de distintos tipos (protección de datos, cumplimiento, antidiscriminación, protección del consumidor, seguridad, etc.), para identificar y reducir las posibilidades de que el aprendizaje automático produzca resultados no deseados.
Todo esto se puede hacer sin crear ningún requerimiento regulatorio específico. Al mercado se le puede delegar la responsabilidad de aprobar o castigar prácticas organizacionales que no estén de acuerdo con este marco de referencias para el desarrollo y uso de la IA.
Complementariamente, el papel de los gobiernos para apoyar la innovación y la adopción de IA a gran escala y en todos los ámbitos es fundamental. Especialmente para esto, destacamos tres puntos a ser considerados por las autoridades del Poder Ejecutivo:
- Designar o reconocer, mecanismos regulatorios existentes y efectivos (como ejemplo, el CENELEC en Europa o el NIST en EUA) para alentar la colaboración en la definición de referencias, estructuras y estándares para sistemas de IA;
- Apoyar el financiamiento y la creación de laboratorios multidisciplinarios de IA a través del trabajo conjunto. Los diferentes actores de este ecosistema pueden recomendar mejor la adopción de criterios de imparcialidad, explicabilidad, transparencia, ética, privacidad y seguridad en la IA;
- Incentivar la adopción de estándares globales, así como certificaciones y formatos de validación reconocidos internacionalmente.
Finalmente, cualquier acción discriminatoria, ya sea en un entorno virtual, automatizado o físico, debe evitarse sin distinción. Las recomendaciones o decisiones sesgadas de cualquier tipo nunca deben considerarse aceptables. Especialmente en sistemas que se pueden mejorar, probar y corregir en modelos estadísticos antes de que sean accesibles.
La IA confiable ya está disponible para todos. Su mejora y adopción a gran escala, de manera ética y transparente, está en manos de organizaciones y gobiernos que deben trabajar juntos para encontrar el equilibrio entre la autorregulación y la regulación precisa que contribuya a disminuir los impactos negativos de esta tecnología, sin eclipsar su potencial transformador y positivo.